Conteúdos deep fake agravam fenómeno de desinformação nas eleições norte-americanas
"Vi com os meus próprios olhos" e "reconheci-lhe a voz" eram frases usadas para garantir um testemunho até há poucas décadas. Esses tempos acabaram. E com o seu fim abriu-se uma caixa de Pandora que pode abalar as nossas comunidades até aos alicerces.
por Graça Andrade Ramos, Cristina Francisco Santos - RTP
Atualmente, som e imagem podem ser profundamente falsificados criando realidades que nunca existiram. O fenómeno tem mesmo um nome: deep fake.
Por enquanto, falamos geralmente da adulteração de conteúdos que realmente aconteceram e que foram captados, uma vez que a artificialidade das imagens produzidas por Inteligência Artificial é ainda facilmente detetada e por isso menos enganadora.
Um deep fake comum usa a imagem e a voz de alguém influente e modifica-as, segundo um guião, como exemplifica, em inglês, este vídeo de promoção de um programa de IA, publicado na rede X.
Com estes recursos, cometer fraudes ou influenciar o resultado de eleições através das redes sociais, usando conteúdos aparentemente legítimos, tornou-se quase simples.
Veja-se o caso de um vídeo recente em que Elon Musk, o fundador da Tesla e proprietário da rede X, aconselhava alegadamente o investimento em cripto-ativos. Mais de 35.000 pessoas foram burladas.
🚨 A deepfake livestream of Elon Musk promoting a cryptocurrency scam once fooled over 35,000 viewers on YouTube.
This wasn’t science fiction—this was reality.
It’s a reminder of the dangerous capabilities of deepfakes and the urgent need for decentralized AI to safeguard… pic.twitter.com/L0sPxehV37
Num outro crime grave, uma influencer com milhares de milhões de seguidores, viu a sua cara surgir em vídeos deep fake pornográficos.
A maioria dos geradores industriais de imagens de IA, como o OpenAI ou o Microsoft, possuem proteções quanto aos conteúdos que possam gerar, como a proibição de uso de imagens de figuras públicas ou imagens de política.
Mas muitos utilizadores têm sido capazes de iludir estas proteções. Outros têm-se voltado para programas menos restritos, como o gerador de imagens Grok, criado por Elon Musk.
Há meios para aferir a legitimidade de qualquer conteúdo de som e imagem publicado nas redes sociais, como se comprova neste exemplo.
Apesar disso, o controlo não é imediato nem evidente e o deep fake é hoje uma das facetas mais graves do fenómeno da desinformação.
A tecnologia possui um potencial elevado de inundar as plataformas digitais com conteúdos falsos, e tem estado já particularmente presente nas campanhas eleitorais no mundo inteiro.
Um mundo inacreditável
As ferramentas de IA são usadas para gerar vídeos, fotografias e áudios falsos, comprometedores, em perseguição de oponentes, ou difusores de desinformação.
As atuais eleições presidenciais norte-americanas são um bom exemplo do alcance da prática, sobretudo por parte de Donald Trump, da sua campanha e dos seus apoiantes, obrigando a sucessivos desmentidos e criando um misto de confusão, riso, fúria e frustração.
Os exemplos são múltiplos.
No início de 2024, quando decorriam as primárias norte-americanas e Joe Biden parecia de pedra e cal na candidatura democrata, o Partido Republicano lançou no espaço digital um vídeo, sobre o que seriam mais quatro anos sob os democratas. Alertava os incautos para o facto do conteúdo ser "alterado ou sintético"
Não foi o caso de outro exemplo, célebre em termos de deep fake, da campanha de Trump. Ocorreu a 18 de agosto seguinte, quando começou a circular uma composição de imagens adulteradas da cantora e influencer global, Taylor Swift, e das suas fãs.
Foi repartilhada por Trump na sua rede, Truth Social, já que as protagonistas se propunham endossar a candidatura MAGA do republicano.
A ser verdadeiro, o apoio de Swift a Trump teria sido enorme, "huge", para parafrasear Trump. Em vez disso, a falsidade pode revelar-se dolorosa, um abuso da
imagem e da marca da artista, passível de processo judicial.
Questionado
na altura, o multimilionário encolheu os ombros. “Não sei nada sobre
elas [as imagens], só que alguém as gerou. Não fui eu. Estas são imagens
criadas por outras pessoas”, respondeu.
De
qualquer forma, com a polémica, Trump já teria conseguido o que
pretendia: milhares de milhões de visualizações, partilhas e conversa,
em torno da sua candidatura.
Taylor, que já no passado tinha expressado a sua oposição a Donald Trump, mas que não tinha ainda apoiado qualquer candidato, reagiu em conformidade, declarando-se por Kamala Harris a 11 de setembro, após o debate televisivo entre os rivais.
Na Truth Social, Trump publicou a 15 de setembro uma mensagem sucinta. "Odeio Taylor Swift!"
A confusão, contudo, não se ficou por ali. O tema faz aparentemente salivar muitos apoiantes republicanos e, em finais de setembro, outra imagem de IA mostrava “Taylor” submissa de mão dada com "Trump" no relvado de um estádio, com o namorado da jogadora, "Travis Kelce", vencido, em terceiro plano.
🚨BREAKING🚨
Taylor Swift spotted ditching Travis Kelce for Donald Trump. Reporters on the ground say that Taylor Swift said she prefers Alpha Males with large hands over woke beta male Pfizer poster boys. pic.twitter.com/7JNjrDJH7Y
A legenda dizia que a cantora prefere afinal homens “alfa” como o ex-presidente de 78 anos, em vez de rapazes “beta” modelos da Pfizer.
Paródias e casos sérios
“Os fãs de Trump são os humanos mais estranhos que existem”, reagiu um internauta a tal criatividade.
São, também, prolíficos e pouco preocupados com acusações de interferência eleitoral devido ao uso de deep fake ou com respeito pelo politicamente correcto.
Imagens de Donald Trump rodeado de jovens negros descontraídos e bem-parecidos, difundidas nas redes sociais por apoiantes do candidato demonstrando o seu acolhimento entre a comunidade, foram identificadas pela BBC como tendo sido geradas por IA, mas não sem antes terem feito o seu caminho.
Trump é um ávido usuário das redes sociais, ao ponto de ter criado a sua própria depois de ter sido expulso do então Twitter, atual X. E, tal como não aplica filtros quando fala, o multimilionário também não os usa quando publica.
Muitas vezes, Trump ri-se de si próprio, para gáudio dos fãs, como neste vídeo em que dança com o próprio Elon Musk, um dos seus maiores apoiantes nestas eleições.
Num meme, publicado na Truth Social em setembro, durante a polémica acusação de que imigrantes haitianos estavam a roubar patos e gatos para os comer, em Springfield, Ohio, Trump mostra-se abraçado a dois destes animais, assustados, protegendo-os, assumindo-se protetor, por associação, dos americanos ameaçados.
A polémica gerou aliás milhares de reações, tanto políticas como fotografias e vídeos de IA, com ou sem Trump, muitos de boa qualidade. Até porque gatos e patos são garantia de partilhas na internet.
Se conteúdos fantásticos ou simplesmente estranhos deixam ora divertidos ora desconfiados a maioria dos internautas, outros há que, mesmo falsos, parecem credíveis num primeiro momento e por isso carecem de denúncia ou, pelo menos, de esclarecimento.
Os problemas de Kamala
Recentemente, a candidata democrata, a vice-presidente Kamala Harris, enfrentou, decidida e firme, apoiantes do rival republicano, Donald Trump, que teriam entrado num dos seus comícios.
Na verdade, Kamala respondeu a um grupo de pró-palestinianos que lhe interromperam o discurso com gritos pela sua causa e desafios à candidata. Os comentários mostram que a maioria dos apoiantes de Trump achou o deep fake hilariante.
Um caso mais grave, e porque a alteração do vídeo foi realizada por um programa televisivo legítimo e de prestígio, o 60 Minutes, da CBS, foi a substituição de uma resposta de Kamala durante uma entrevista gravada.
O caso foi detetado porque, na promoção do programa nas redes sociais, a resposta da candidata foi confusa, num estilo de discurso apelidado de “salada de palavras”, uma expressão difamatória usada por detratores da democrata.
Ao editar o programa antes da sua difusão, e talvez por falha de comunicação interna com a equipa de promoções, a resposta original de Kamala foi substituída por outra, mais simples.
Why did 60 Minutes put out an edited version of Kamala Harris’ response about Israel?
It’s because she gave a word salad explanation that had no meaning.
Mesmo não se tratando de um deep fake tradicional, a falsificação gerou enorme debate e desacreditou profundamente tanto o programa como a campanha da candidata, favorecendo o adversário.
Sem perder a pedalada, e numa paródia ao sucedido com o 60 Minutes, foi depois publicada uma resposta fictícia de Kamala a Joe Rogan, um dos mais populares entrevistadores norte-americanos, antigo apresentador e autor do podcastThe Joe Rogan Experience, o mais ouvido nos Estados Unidos. De notar que o vídeo cumpre as regras ao indicar que o conteúdo é deep fake.
Uma vez que a campanha democrata declinou o convite para Kamala conversar com Rogan, o propósito da falsificação foi realmente promover a entrevista de três horas dada por Donald Trump a Rogan a 25 de outubro, vista em dois dias por mais de 33 milhões de pessoas, só no canal YouTube.
Os democratas denunciaram a paródia de Kamala com Rogan como um dos pontos baixos da campanha de Trump. O próprio Rogan difundiu-a. Tanto o episódio como a entrevista com o multimilionário valeram aliás ao apresentador vários milhares de novos seguidores num único fim-de-semana.
Uma arma de guerrilha
Os deep fakes, reais ou alegados, têm sido usado sem pejo por Trump para atacar a rival.
Num tweet na rede X, Donald Trump publicou há meses uma foto obviamente produzida por IA, de Kamala, de costas, frente a uma multidão militarista e a uma enorme bandeira vermelha com a foice e o martelo comunistas.
Já noutra publicação, acusou a candidata democrata de usar imagens de IA para criar uma multidão à sua espera no aeroporto tentando passá-la como real.
“Devia ser desqualificada porque a criação de imagens falsas é INTERFERÊNCIA ELEITORAL. Quem quer que o faça irá enganar EM QUALQUER COISA!”, disparou Trump no seu estilo característico.
Kamala Harris tem sido ainda alvo de tentativas mais clássicas de difamação.
Uma, denunciada como Photoshop, foi a publicação de alegadas fotografias suas quando seria companhia contratada por clientes masculinos, durante a juventude, em São Francisco.
Have you seen this picture of Kamala when she was young and doing call girl services pic.twitter.com/JsQxMdUhWM
Outra mostra a atual vice-presidente com o uniforme da McDonalds, e seria a prova de que realmente trabalhou na empresa quando era mais nova, como alega. Terá sido aparentemente difundida candidamente por alguns dos seus apoiantes mas foi rapidamente detetada como fraude.
Em resultado da diversidade e da atratividade visual de muitos dos conteúdos deep fake de Donald Trump, os ataques da campanha de Harris ao rival mas redes sociais parecem menos acutilantes. Eis, como exemplo, alguns vídeos críticos.
Publicados entre os diversos discursos de campanha da própria candidata, são conteúdos de produção clássica, sem sinalização de deep fake.
Os democratas mostram-se, sob este aspeto, menos criativos do que os republicanos. Ou mais respeitadores da lei, consoante a leitura. O que uns entendem como paródia, outros vêm como provocação inaceitável e ilegal.
Foi o caso de um vídeo partilhado em julho por Elon Musk, em violação das regras da própria rede social do multimilionário, por não avisar de antemão que o conteúdo vocal havia sido gerado com recurso a IA e que se tratava de paródia.
Com imagens de Kamala, usa a voz da candidata num discurso derrogatório de si mesma. Neste deep fake ela “diz” O Joe está senil e eu fui escolhida por ser exemplo de diversidade.
Musk, e milhares dos seus defensores, afirmaram depois que a paródia era evidente.
Mas o caso trouxe de novo à ribalta a questão de autorregulação das plataformas quanto às publicações permitidas.
Vários políticos aproveitaram para exigir regulamentos mais severos sobre os conteúdos artificiais, mas a elaboração destas regras está ainda a ser desenvolvida, pelo que são as plataformas que continuam a gerir-se a si mesmas. Ser ou não ser responsável
Vários analistas avisam que estes conteúdos deep fake podem afetar grupos mais vulneráveis, como mulheres e crianças, sobretudo não-brancas, e apresentar uma imagem social menos diversa do que a real. Musk, um defensor absoluto da liberdade de expressão, desde que a publicação não seja ilegal, tem até agora resistido a todas as pressões para modificar as regras da sua rede X, que se tornou uma plataforma onde quase todo o tipo de debate e conteúdo é permitido.
A 18 de outubro, regressou a polémica de julho.
Uma investigação do grupo Global Witness, que defende uma regulação mais severa das plataformas de conteúdos, em defesa da democracia, revelou que tanto o TikTok como o Facebook aprovaram anúncios eleitorais com conteúdos evidentemente fraudulentos a poucas semanas da votação nos EUA.
Estão em causa os mecanismos usados para detetar desinformação nociva, apontaram os ativistas, depois de submeterem oito anúncios com alegações eleitorais falsas, num teste ao crivo daquelas duas redes sociais e do YouTube.
Entre as falsidades incluídas nos anúncios estava a possibilidade de voto online, o incitamento de violência contra um candidato e ameaças a funcionários eleitorais ou aos processos da eleição.
A plataforma chinesa foi a que teve pior nota, aprovando quatro dos anúncios. O Facebook deixou passar um.
“A poucos dias de uma corrida presidencial renhida, é chocante que as empresas de media social continuem a aprovar desinformações completamente desmentidas e evidentes nas suas plataformas”, afirmou Ava Lee, líder da campanha contra ameaças digitais da Global Witness.
O TikTok repondeu que os anúncios foram “incorretamente aprovados no primeiro estágio de moderação” e o Facebook desvalorizou o caso, referindo que a amostra era muito pequena e por isso “não refletia a forma como aplicamos as nossas diretivas à escala”. Ambas as fontes garantiram ser prioridade das empresas proteger as eleições online. Perigos ao virar da esquina
Além de difundir desinformação, o abuso do recurso a deep fakes pode, ainda, gerar aquilo que os especialistas chamam de “dividendo do mentiroso”, onde o aumento de conteúdos manipulados leva ao ceticismo generalizado, facilitando o descarte de provas autênticas como falsas.
Existe ainda outro perigo mais grave, o de criar narrativas que afetam realmente a perceção da realidade.
Recentemente, foram veiculadas notícias de uma série de atentados a caixas de receção de boletins de voto pré-preenchidos em Vancouver e Portland.
🚨Ballot drop boxes with completed votes have just been set on fire in Vancouver, WA and Portland, OR. Expect more wild stuff this week. Stay vigilant. pic.twitter.com/qTXHPXZc2h
Police in Oregon and Washington are investigating ballot box fires that destroyed hundreds of ballots, with surveillance linking a suspect vehicle to multiple incidents. Authorities are ramping up patrols amid warnings of election threats. pic.twitter.com/MMGRjZKF3s
Num clima de desconfiança sobre a possibilidade de fraude, acontecimentos como estes, reais, são um rastilho com potencial para fazer explodir a internet em acusações infundadas.
O peso de produções deep fake, baseadas nestes vídeos ou noutros semelhantes, usadas para comprovar falsamente atos criminosos de desvio de boletins ou de interferência na votação e na contagem, depois de uma campanha tão renhida e divisiva, é potencialmente avassalador. Sobretudo se não houver tempo para verificações.
Tanto democratas como republicanos podem cair nesta perigosa esparrela, em caso de vitória da oposição.
A alternativa bom senso
Perante o ambiente caótico da atual campanha norte-americana e a multiplicação de conteúdos, a par da crescente desconfiança de milhares de eleitores nos órgãos de comunicação tradicionais, como jornais ou televisões, a credibilidade da informação difundida à, e através da, população, esfuma-se a cada passo.
Num esforço para “limitar o potencial de confusão” e no mesmo dia da publicação do relatório da Global Witness, a Google revelou que irá “temporariamente pausar os anúncios” relacionados com a eleição, depois do encerramento das assembleias de voto a 5 de novembro.
A interrupção, tal como em 2020, irá durar “algumas semanas”, devido à probabilidade elevada de que a contagem dos votos prossiga além da terça-feira eleitoral.
Separadamente, a Meta, que detém o Facebook e o WhatsApp, afirmou que iria bloquear novos anúncios políticos na semana final da campanha eleitoral.
São medidas de panaceia perante um problema global e em desenvolvimento.
Milhões de pessoas habituaram-se na última década a usar, diariamente, programas incluídos de origem nos seus telemóveis, para alterar imagens, próprias ou de terceiros, com maior ou menor profundidade.
Ninguém reflete sequer muito nisso, nem no que esse gesto implica, nem no significado e ainda menos nas eventuais consequências, geralmente e felizmente, inócuas.
Nada disto é novo.
Há 100 anos já se alteravam estes registos, incluindo para tentar modificar a História. Por exemplo, numa estratégia bem documentada, quando chegou ao poder supremo em 1929, o ditador soviético José Estaline, ordenou que a memória de figuras que haviam integrado a revolução de 1917 na Rússia e entretanto caídas em desgraça, fosse apagada. Tanto de livros e de documentos como de fotografias. Uma espécie de deep fake à época.
Face à atual escala diária e facilidade de modificações, e com o recente advento da Inteligência Artificial a complicar cada vez mais a distinção entre a ficção e a realidade na reprodução de sons e de imagens, parecem tornar-se necessárias respostas imediatas.
Uma possibilidade seria começar por cada usuário, enquanto primeira linha de defesa como cidadão contra o caos social e o perigoso esboroar da confiança mútua, se propor a parar e a pensar na própria responsabilidade.
Tanto quanto ao uso dos programas disponíveis como na difusão de conteúdos, por mais interessantes, hilariantes ou polémicos que estes possam ser.